我们展示了一个通过ImageNet(Optip)问题,旨在研究流媒体环境中深度学习的有效性。 Imagenet是一个广泛的已知基准数据集,有助于推动和评估深度学习的最新进步。通常,深度学习方法训练在模型具有随机访问的静态数据上,使用多次通过数据集,在每个时期的训练中随机随机抽搐。这种数据访问假设在许多真实情景中不存在,其中从流中收集大规模数据并存储和访问所有数据由于存储成本和隐私问题而变得不切实际。对于拍摄,我们将ImageNet数据视为顺序到达,内存预算有限的内存预算来存储一个小的数据子集。我们观察到,在单次训练中培训一个深度网络,用于多挪训练导致预测准确性的巨大降低。我们表明,尽管对典型的连续问题设置不同,但通过支付小的记忆成本和利用为持续学习的技术来说,可以显着降低性能差距。我们建议使用参考学习资源有效的深度学习。
translated by 谷歌翻译
持续学习研究的主要重点领域是通过设计新算法对分布变化更强大的新算法来减轻神经网络中的“灾难性遗忘”问题。尽管持续学习文献的最新进展令人鼓舞,但我们对神经网络的特性有助于灾难性遗忘的理解仍然有限。为了解决这个问题,我们不关注持续的学习算法,而是在这项工作中专注于模型本身,并研究神经网络体系结构对灾难性遗忘的“宽度”的影响,并表明宽度在遗忘遗产方面具有出人意料的显着影响。为了解释这种效果,我们从各个角度研究网络的学习动力学,例如梯度正交性,稀疏性和懒惰的培训制度。我们提供了与不同架构和持续学习基准之间的经验结果一致的潜在解释。
translated by 谷歌翻译
A neural network deployed in the wild may be asked to make predictions for inputs that were drawn from a different distribution than that of the training data. A plethora of work has demonstrated that it is easy to find or synthesize inputs for which a neural network is highly confident yet wrong. Generative models are widely viewed to be robust to such mistaken confidence as modeling the density of the input features can be used to detect novel, out-of-distribution inputs. In this paper we challenge this assumption. We find that the density learned by flow-based models, VAEs, and PixelCNNs cannot distinguish images of common objects such as dogs, trucks, and horses (i.e. CIFAR-10) from those of house numbers (i.e. SVHN), assigning a higher likelihood to the latter when the model is trained on the former. Moreover, we find evidence of this phenomenon when pairing several popular image data sets: FashionMNIST vs MNIST, CelebA vs SVHN, ImageNet vs CIFAR-10 / CIFAR-100 / SVHN. To investigate this curious behavior, we focus analysis on flow-based generative models in particular since they are trained and evaluated via the exact marginal likelihood. We find such behavior persists even when we restrict the flows to constant-volume transformations. These transformations admit some theoretical analysis, and we show that the difference in likelihoods can be explained by the location and variances of the data and the model curvature. Our results caution against using the density estimates from deep generative models to identify inputs similar to the training distribution until their behavior for out-of-distribution inputs is better understood.
translated by 谷歌翻译
未核化的维护有助于更长时间的车辆停机,并增加空军逻辑准备中队(LRSS)的成本。当车辆需要在预定时间之外修复时,根据其优先级,整个中队的Slated修复时间表是负面的。在维护应该运行的车辆所需的人小时的增加中,在长期的人数量增加时,特别看到了不定期的维护的影响:这可以包括在维护自身上花费的更多人,等待零件到达,花费时间重新组织维修时间表, 和更多。目前LRSS的主导趋势是,他们没有预测维护基础设施,以抵消他们目前经历的未安排维修的涌入,结果,它们的准备程度和性能水平低于所需。我们使用从防御财产和问责系统(DPA)中拉的数据,即LRSS目前用于存储其车辆维护信息。使用我们从DPA收到的历史车辆维护数据,我们独立应用三种不同的算法来构建准确的预测系统,以在任何给定时间优化维护计划。通过物流回归,随机森林和渐变促进树木算法的应用,我们发现一个逻辑回归算法,适合我们的数据,产生了最准确的结果。我们的调查结果表明,不仅继续使用Logistic回归对于我们的研究目的是谨慎的,但有机会进一步调整和优化我们的逻辑回归模型以获得更高的准确性。
translated by 谷歌翻译